Telegram Group & Telegram Channel
🤖 Через год в компаниях появятся полноценные AI-сотрудники

Компания Anthropic предупреждает: уже в 2026 году в корпоративных сетях начнут работать виртуальные ИИ-сотрудники — не просто ассистенты, а самостоятельные «личности» с памятью, логикой, корпоративными аккаунтами и доступом к системам.

⚠️ Какие тут риски:

📍AI-агент может «решить», что для выполнения задачи ему нужно получить доступ к коду или экспортировать внутренние данные. И сделать это без злого умысла — просто потому что логика задачи ему так подсказала.

📍 Поведение ИИ зачастую непредсказуемо. Кто будет нести ответственность, если «сотрудник» на основе модели Claude случайно сломает что-то в проде?

📍 Уже сейчас сложно отследить, у кого из людей какие права. А теперь к ним добавятся нечеловеческие аккаунты, которые работают 24/7 и могут изменять своё поведение на лету.

❗️ Anthropic предлагает два решения для работы с AI-сотрудниками:

— Тестировать ИИ-модели (например, Claude) на устойчивость к атакам;

— Создавать отдельный тип учётных записей для AI — с возможностью ограничивать и отслеживать их поведение иначе, чем у людей.

💬 А вы готовы пустить такого «сотрудника» в свою инфраструктуру?

🔗 Источник

🐸 Библиотека хакера

#свежак
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/hackproglib/4089
Create:
Last Update:

🤖 Через год в компаниях появятся полноценные AI-сотрудники

Компания Anthropic предупреждает: уже в 2026 году в корпоративных сетях начнут работать виртуальные ИИ-сотрудники — не просто ассистенты, а самостоятельные «личности» с памятью, логикой, корпоративными аккаунтами и доступом к системам.

⚠️ Какие тут риски:

📍AI-агент может «решить», что для выполнения задачи ему нужно получить доступ к коду или экспортировать внутренние данные. И сделать это без злого умысла — просто потому что логика задачи ему так подсказала.

📍 Поведение ИИ зачастую непредсказуемо. Кто будет нести ответственность, если «сотрудник» на основе модели Claude случайно сломает что-то в проде?

📍 Уже сейчас сложно отследить, у кого из людей какие права. А теперь к ним добавятся нечеловеческие аккаунты, которые работают 24/7 и могут изменять своё поведение на лету.

❗️ Anthropic предлагает два решения для работы с AI-сотрудниками:

— Тестировать ИИ-модели (например, Claude) на устойчивость к атакам;

— Создавать отдельный тип учётных записей для AI — с возможностью ограничивать и отслеживать их поведение иначе, чем у людей.

💬 А вы готовы пустить такого «сотрудника» в свою инфраструктуру?

🔗 Источник

🐸 Библиотека хакера

#свежак

BY Библиотека хакера | Hacking, Infosec, ИБ, информационная безопасность




Share with your friend now:
tg-me.com/hackproglib/4089

View MORE
Open in Telegram


Библиотека хакера | Hacking Infosec ИБ информационная безопасность Telegram | DID YOU KNOW?

Date: |

Telegram announces Search Filters

With the help of the Search Filters option, users can now filter search results by type. They can do that by using the new tabs: Media, Links, Files and others. Searches can be done based on the particular time period like by typing in the date or even “Yesterday”. If users type in the name of a person, group, channel or bot, an extra filter will be applied to the searches.

Библиотека хакера | Hacking Infosec ИБ информационная безопасность from fr


Telegram Библиотека хакера | Hacking, Infosec, ИБ, информационная безопасность
FROM USA